首页> 外文OA文献 >Max-Pooling Dropout for Regularization of Convolutional Neural Networks
【2h】

Max-Pooling Dropout for Regularization of Convolutional Neural Networks

机译:卷积神经网络正则化的最大池丢失

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Recently, dropout has seen increasing use in deep learning. For deepconvolutional neural networks, dropout is known to work well in fully-connectedlayers. However, its effect in pooling layers is still not clear. This paperdemonstrates that max-pooling dropout is equivalent to randomly pickingactivation based on a multinomial distribution at training time. In light ofthis insight, we advocate employing our proposed probabilistic weightedpooling, instead of commonly used max-pooling, to act as model averaging attest time. Empirical evidence validates the superiority of probabilisticweighted pooling. We also compare max-pooling dropout and stochastic pooling,both of which introduce stochasticity based on multinomial distributions atpooling stage.
机译:最近,辍学已在深度学习中得到越来越多的使用。对于深度卷积神经网络,众所周知,在完全连接的层中,辍学效果很好。但是,它在池化层中的作用仍然不清楚。本文演示了最大池丢失等于在训练时基于多项式分布的随机选择激活。根据这种见识,我们主张采用我们提出的概率加权池,而不是通常使用的最大池,作为模型平均证明时间。经验证据证实了概率加权池的优越性。我们还比较了最大池丢包率和随机池,两者都基于池期的多项式分布引入了随机性。

著录项

  • 作者

    Wu, Haibing; Gu, Xiaodong;

  • 作者单位
  • 年度 2015
  • 总页数
  • 原文格式 PDF
  • 正文语种
  • 中图分类

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号